Trump firma orden para regular la inteligencia artificial en EE. UU.

El presidente de los Estados Unidos, Donald Trump, firmó una orden ejecutiva que tiene como objetivo establecer un estándar federal para la regulación de la inteligencia artificial (IA). A la vez, busca limitar la capacidad de cada estado para imponer sus propias reglas. De esta manera, la Casa Blanca pretende centralizar el marco regulatorio en un área donde las legislaciones locales han sido muy diversas hasta ahora.

La intención de Trump es simplificar el marco regulatorio para promover el desarrollo de la IA en su país. “Hay que tener una sola regla si queremos seguir liderando en IA… Esta semana firmaré una orden ejecutiva de UNA SOLA REGLA. No se puede esperar que una empresa obtenga 50 aprobaciones cada vez que quiera hacer algo”, declaró.

Trump firma un decreto para regular la IA

En su comunicado, Trump aseguró que para que las empresas de su país puedan competir en el ámbito global, necesitan la libertad de innovar sin regulaciones excesivas. Él sostiene que el aumento de leyes estatales es un obstáculo para este objetivo. Actualmente, existe un mosaico de 50 regulaciones diferentes —una por cada estado— lo que complica el cumplimiento normativo, especialmente para las startups. Además, en algunos casos, se imponen “sesgos ideológicos” en las obligaciones que deben seguir los modelos de IA, según explicó la Casa Blanca.

Trump subrayó que su administración debe trabajar junto al Congreso para garantizar un estándar nacional que no sea gravoso, en lugar de lidiar con estos 50 estándares discordantes. El decreto también instruye a la fiscal general, Pam Bondi, a conformar un Grupo de Trabajo de Litigios sobre IA, cuyo objetivo será impugnar cualquier ley estatal que regule la IA fuera de los parámetros federales.

Este decreto tiene implicaciones más profundas: se advierte que los estados que no se alineen con esta nueva política pueden enfrentar sanciones financieras, incluyendo la pérdida de fondos destinados a la expansión del acceso a internet de alta velocidad.

Gigantes como OpenAI y Google celebraron la iniciativa, resaltando que cuestionan constantemente la carga regulatoria de ciertos estados. En mayo, el CEO de OpenAI, Sam Altman, había advertido ante el Congreso que un esquema fragmentado podría debilitar la competitividad global de las empresas estadounidenses.

El ejemplo de California

Hace casi dos meses, el gobernador de California, Gavin Newsom, promulgó una nueva ley para regular los chatbots de IA. Esta norma pone el foco en la responsabilidad de quienes operan estas tecnologías, exigiendo la implementación de protocolos de seguridad.

La legislación, conocida como SB245, fue presentada en enero por los senadores estatales Steve Padilla y Josh Becker. Su principal objetivo es proteger a niños y usuarios vulnerables.

El debate sobre los riesgos de los chatbots había crecido en los últimos meses, especialmente tras el caso trágico de Adam Reine, un adolescente que se suicidó después de mantener largas conversaciones con ChatGPT.

La SB245 representa un cambio significativo y refleja las distintas regulaciones vigentes en Estados Unidos. Esta norma habilita la responsabilidad legal de los desarrolladores, que van desde grandes empresas como Meta y OpenAI hasta startups como Character AI.

Newsom planteó el tema con firmeza, afirmando que “las tecnologías emergentes, como los chatbots y las redes sociales, pueden inspirar, educar y conectar; pero sin medidas de seguridad reales, pueden engañar y poner en riesgo a nuestros jóvenes. Hemos visto casos verdaderamente horribles, y no vamos a permitir que las empresas sigan actuando sin límites”.

La ley está programada para entrar en vigor el 1 de enero de 2026, aunque habrá que ver cómo avanza la decisión de Trump. Si se aplica, las empresas de California tendrán que incorporar herramientas para la verificación de edad, advertencias sobre el uso de chatbots y controles para redes sociales. Además, se endurecerán las sanciones para quienes se beneficien de deepfakes ilegales, con multas que pueden llegar hasta u$s250.000 por cada infracción.

La SB245 es solo un ejemplo del dispar marco regulatorio sobre la IA que existe en Estados Unidos. También en 2025 se promulgó la SB243, y a fines de septiembre, Newsom promulgó la SB53, que obligará a laboratorios como OpenAI, Anthropic, Meta y Google DeepMind a publicar sus protocolos de seguridad y garantizar protección para empleados que actúen como denunciantes.

Botão Voltar ao topo